Jagger, сервис Google Analytics и будущее поисковой оптимизации | Статьи SEOnews

За последнее время в «мире Google» произошло 2 знаменательных события: апдейт Jagger и создание сервиса Google Analytics. Благодаря этим «новинкам», видение Интернет-поиска кардинально изменилось.

Несколько слов об апдейте Jagger, о котором уже немало написано.Точно так же, как ураганам в США, апдейтам дают имена. К апдейтам Google давно все привыкли, и все же многим они внушают серьезные опасения, так как могут оказать существенное негативное влияние на позицию сайта в результатах выдачи.

Вот и последний апдейт вызвал панику в Интернет-кругах. Почему же Jagger оказался таким опасным? Все просто и объяснимо. С помощью апдейта Jagger Google вновь сумел перехитрить тысячи оптимизаторов.

Большинство оптимизаторов тратит время (а также деньги своих клиентов) впустую, пытаясь убедить Google, что те или иные сайты являются релевантными. В основном, оптимизаторы прибегают к ссылочному обмену, покупке дешевых ссылок и размещению ссылок в бесплатных директориях. В принципе, ничего криминального в таких ссылках нет, но они не являются подтверждением релевантности или достаточной значимости сайта. Все, о чем свидетельствуют ссылки такого характера, – это заключение определенного рода сделки между владельцами сайтов. В подобных сделках основной целью для владельца ссылочного сайта является увеличение объема ссылок, деньги или обратные ссылки. Google положительно относится к таким действиям, но для этого цель должна быть абсолютно иная: увеличение ценности контента или увеличение авторитетности сайта. Иными словами, Google рассчитывает, что результаты поиска будут содержать релевантные запросу сайты, а не сайты, которые только на первый взгляд являются таковыми. Чтобы, наконец, покончить с этим беспределом, Google стал инвестировать миллионы долларов на создание алгоритмов, с помощью которых осуществляется идентификация сайтов, желающих «провести» Google. Для этих целей компания нанимает самых компетентных и высококвалифицированных сотрудников.

Благодаря совместным усилиям сотрудников компании, появился апдейт Jagger. Наконец-то выявилась истинная значимость многих сайтов. К сожалению, апдейт затронул некоторые сайты, которые заслуживают достаточно высокой оценки. Ожидается, что в ближайшем будущем с помощью мелких апдейтов все погрешности апдейта Jagger будут устранены. Описание апдейта Jagger с технической точки зрения подробно представлено здесь

по наблюдениям специалистов, с некоторых сайтов исчезли обратные ссылки. Скорее всего, Google ликвидирует обратные ссылки, воспринимая их как способ достижения популярности. Обратные ссылки – неплохой способ заработать ложную популярность. Только Google не так уж и просто обмануть! Jagger аннулировал работу тысяч, если не миллионов, человек! В результате, с трудом добытые высокие позиции рухнули!

Поговорим о втором «монументальном событии», которое произошло совсем недавно, — создание сервиса Google Analytics. Google Analytics открыто взаимодействует с Google AdWords , предоставляя веб-мастерам возможность подсчитать коэффициент ROI с рекламы pay-per-click. По заявлению самой компании, Google Analytics предоставляет всю необходимую информацию о взаимодействии посетителей с тем или иным сайтом.

Почему создание данного сервиса рассматривается как знаменательное событие? Дело в том, что впервые Google получит доступ к статистике Вашего сайта. Эта статистика будет намного точнее, нежели все предыдущие. В одном из заявлений представитель Google объявил: «Вполне возможно, что мы будем использовать информацию личного характера для проведения исследований и анализа с целью улучшения качества технологий и сервисов компании».


Путем несложных логических операций делаем следующие выводы:

Читать далее

Анализ влияния параметра rd | Статьи SEOnews

Использование параметра rd при поиске в бэклинках

сайт
без параметра rd
-4
-3
-2
-1
0
1
2
3
4
rd=
 
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
кол-во страниц
кол-во сайтов
сложносоставные запросы
neoplas...
Читать далее

Оценка влияния веса при ссылках с главных страниц и ссылках на всех страницах сайта (“сквозняком”) | Статьи SEOnews

    1) создаем два сайта на бесплатном хостинге (http://sokr1.narod.ru/; http://sokr2.narod.ru/)
    2) сайты по всем параметрам идентичны (плотность ключевых слов, количество слов)!
    3) в title содержится выдуманное слово (сокризм навсегда; сокризм сободен)
    4) в тексте этого слова нет или оно в равных пропорциях на каждом сайте; длина текста и title должна быть одинакова
    5) добавить сайты в Яндекс (url http://sokr1.narod.ru/; http://sokr2.narod.ru/ были добавлены в Yandex 28.11.05)

Проставить ссылки с сайтов...

Читать далее

Как добиться ссылочной популярности? | Статьи SEOnews

Последний «шедевр» грязного Интернет-бизнеса под названием Google- боулинг, в результате которого конкуренты могут существенно навредить Вашему сайту, получил практически такую же «популярность», как оружие массового поражения в Ираке. Если Вы убеждены, что Ваш сайт стал жертвой Google-боулинга, и все логические объяснения, почему сайт теряет позиции в последнее время, исчерпаны, то примите к сведению следующую информацию:

авторитетная ссылка на сайт оказывает значительное влияние на ссылочную популярность. Неавторитетные ссылки (часто — обратные ссылки, тройные ссылки) иногда абсолютно бесполезны. Иными словами, много всего бесполезного пользы не принесет.

Проблемы могут возникнуть, если имеющиеся на сайте ссылки «ведут» на сайты, которые Google подверг штрафным санкциям.

Чтобы выяснить, забанил ли Google тот или иной сайт, используйте инструмент Google Banned Tool или зайдите на сайт www.thedomain.com. Если забаненная ссылка генерирует нулевой трафик, логичнее всего, попросить такую ссылку удалить.

Когда Вы пишете e-mail веб-мастеру с просьбой удалить ссылку, вероятность того, что Ваша просьба будет удовлетворена, — 70%. Веб-мастер может задать вопрос: «Желаете ли Вы удалить ссылки со всех сайтов, на которые автоматически генерируется контент»? В результате, может получиться, что один e-mail приведет к удалению порядка 30 ссылок с забаненных сайтов.

Однако такая стратегия не подходит для удаления ссылок из форумов или комментариев блогов. Скорее всего, Вы столкнетесь с массой трудностей, пока сумеете убедить владельца блога или форума использовать тэги No Follow, которыми они смогут помечать страницы комментариев и вообще любые «не свои» записи и ссылки.

Начав охоту на неавторитетные ссылки, не забывайте обращать внимание на полезные ссылки. Собрать воедино полезные и нужные ссылки – задача не из простых. Пройдет немало времени, пока будут подобраны сайты, блоги, релевантные специфике Вашей деятельности, и которые смогут стать Вашими полезными, нужными бизнес-партнерами в Интернете.

Итак, необходимо найти достойного Интернет-партнера, который окажет существенную поддержку Вашему сайту при работе с ссылками. Для этого существуют различные инструменты. Рассмотрим некоторые из них:

Читать далее

Во что обойдется «обманный» клик? | Статьи SEOnews

Сегодня главную угрозу поисковой рекламе представляет увеличивающееся число обманных кликов. Существуют различные формы и виды обманных кликов. Но большинство людей ассоциируют их с намеренным «взломом» бюджета рекламодателей.

Для рекламодателей не секрет, что одни клики более качественные, другие – наоборот, оставляют желать лучшего. Безусловно, далеко не каждый посетитель обязательно должен в полной мере воспользоваться системой PPC...

Читать далее

Pay-Per-Action суждено сменить Pay-Per-Click | Статьи SEOnews

В настоящее время Pay-per-click (PPC)-реклама – это большой и серьезный бизнес. Ежегодная прибыль рекламодателей, пользующихся услугами PPC, измеряется миллиардами долларов. Эта рекламная модель продолжает укреплять свои позиции и популярность. Провайдерами услуг PPC-рекламы являются такие программы, как Google’s AdWords, Yahoo! Search Marketing (прежде известная как Overture) и, недавно пополнившие список, MSN Keywords и MSN adCenter. Однако практика показывает, еще ни одна рекламная модель не проходила испытание временем...

Читать далее

Познакомьтесь с алгоритмами поисковых систем! | Статьи SEOnews

Обратимся к алгоритму работы поисковых систем. Выясним, что объединяет различные алгоритмы, почему так важно знать, в чем заключаются их отличия, и как данная информация может пригодиться в оптимизации сайта под поисковые системы.

Делая один и тот же запрос в разных поисковых системах, Вы наверняка обратили внимание, что результаты отличаются. Почему на один и тот же запрос в разных поисковых системах выдаются результаты, мало похожие друг на друга? Частично ответ заключается в том, что не все поисковые системы индексируют одну и ту же информацию, роботы различных поисковых систем зачастую ведут себя по-разному. Однако основная причина скрывается в следующем: каждая поисковая система использует разные алгоритмы. Порядок действий необходим поисковой системе для определения релевантной информации, содержащейся в базе данных, в соответствии с запросом пользователя.

Что такое поисковый алгоритм?

Поисковый алгоритм рассматривается как математическая формула, которая «забирает» проблему, а «возвращает» решение, обычно после оценки всех возможных решений. Поисковый алгоритм использует ключевые слова как исходные данные и предоставляет релевантные поисковые результаты в виде решения задачи. Заданные ключевые слова определяются поисковыми роботами, которые анализируют контент веб-страницы и релевантность ключевых слов на основе математической формулы, которая индивидуальна для каждой поисковой системы.

Типы информации, воспринимаемые алгоритмом

Некоторые сервисы собирают информацию о запросах, которые встречаются наиболее часто, о страницах, которые просматриваются наиболее часто, а также о затраченном времени на каждую страницу. Полученная информация используется при выдаче результатов, которые наиболее популярны среди пользователей по тому или иному запросу. К сожалению, потенциальное множество запросов, к которым применима данная технология, очень мало, поэтому зачастую данный метод влечет за собой спам.

Другой подход подразумевает анализ ссылок, где авторитетные тематические страницы ссылаются на другие авторитетные тематические страницы. Анализируя, как страницы ссылаются друг на друга, поисковый алгоритм определяет, о чем страница и является ли данная страница релевантной. Точно так же, некоторые поисковые алгоритмы изображают внутреннюю ссылочную навигацию на рисунке. Поисковые роботы следуют внутренним ссылкам для оценки легкости навигации и для оценки соотношения страниц.

Оригинальные базы данных поисковых систем создавались на основе сгруппированной человеком информации. Данный метод сегодня можно рассматривать как архаичный, однако до сих пор существует множество директорий, составляющих базы данных поисковых систем, например, Open Directory (также известная как DMOZ), которые полностью группируются вручную. Материал, содержащийся в некоторых поисковых системах, все еще формируется вручную, но только после того, как поисковые роботы соберут необходимую информацию.

Поисковый алгоритм подробно анализирует частотность и расположение ключевых слов на веб-странице. Ключевые слова с высокой частотностью обычно воспринимаются как более релевантные. В этом случае говорят о плотности ключевых слов.

Многие поисковые системы не воспринимают мета-тэги из-за спама. Однако ко всем поисковым системам это не относится. Существует много факторов, которые учитываются поисковыми алгоритмами при определении релевантных результатов. Некоторые учитывают время пребывания сайта в Интернете, другие сконцентрированы на структурных вопросах, например, количество встречающихся ошибок и др.

Почему поисковые системы не похожи друг на друга?

Поисковые алгоритмы засекречены. Никто точно не знает, что именно учитывает поисковый алгоритм, на какие факторы обращает внимание. Каждая поисковая система использует индивидуальную систему фильтрации спама, и у каждой поисковой системы свое собственное видение спама.Еще одна причина, объясняющая различия между поисковыми системами, — широкое использование технологии фильтрации спама. Некоторые поисковые системы вносят изменения в свои алгоритмы специально для включения определенных фильтров. Чтобы понять, что из себя представляет фильтр спама, проще всего, представить фильтр воды: вода проходит через специальное устройство, сделанное из пористого материала, который задерживает все вредные примеси. Подобным образом ведут себя фильтры поисковых систем, которые удаляют «вредные примеси» из результатов поиска.

Кажется, что удовлетворить все поисковые системы невозможно, однако существует несколько стратегий, которые помогут направить усилия оптимизатора в нужное русло:

— пишите уникальные, привлекательные заголовки для каждой страницы;

Читать далее

Ссылочная директория — другая форма Link Farm? | Статьи SEOnews

Оптимизация поисковых систем представляют ссылочные директории как одну из возможностей приобретения обратных ссылок. Темпы и масштабы распространения ссылочных директорий растут и заставляют нас задуматься, а не новая ли это форма link farm? Еще несколько лет назад link farm можно было легко найти. Сегодня это редкость. Можно предположить, что явление link farm осталось позади, но так ли это?

В период времени, когда казалось, что избежать web-спама нет возможности, спамеры открыли для с...

Читать далее

Новые тенденции в поисковой рекламе | Статьи SEOnews

Разместить рекламу в поисковой системе не так уж и просто, как это может показаться на первый взгляд!

Как можно достучаться до целевой аудитории без потери значительного капитала на банковском счёте?

Компания Pinstorm, основанная в Индии чуть больше года назад, знает ответ на поставленный вопрос. Предлагая свом клиентам услуги Интернет-маркетинга, компания руководствуется «волшебным правилом»: люди из разных стран думают и воспринимают информацию по-разному, поэтому услуги предоставляются в 204 странах на 13 языках...

Читать далее

Мастерство использования robots.txt файлов | Статьи SEOnews

Упростить работу по оптимизации можно используя файлы robots.txt . Они представляют собой простые файлы, указывающие роботам, паукам поисковой системы, какие файлы индексировать в базу данных, а какие нет. В данной статье будут представлены доказательства важности robots.txt для процесса оптимизации, а также возможные последствия не использования или использования неверно составленных файлов robots.txt.

Как поисковые системы реагируют на Robots.txt

Определенной модели поведения поисковых систем при встрече с файлами robots.txt во время их обхода нет. Достаточно проследить информацию из web stats, чтобы понять востребованность файлов robots.txt у поисковых систем. Большинство пауков начинают обход сайта, в первую очередь, с изучения именно этих файлов. При отсутствии robots.txt-файлов, большинство поисковых роботов будут обходить web-сайты, оставляя их не проиндексированными. Пренебрежение файлами robots.txt повлечёт за собой негативные последствия, однако существуют и более отрицательные результаты.

Поведение большинства крупных поисковых роботов и пауков при чтении файлов robots.txt разнообразно.

MSNbot

Поисковый робот системы MSN называется MSNbot. Он довольно активно обходит web-сайты. Некоторым web-мастерам это нравится, и они пытаются этим пользоваться. Другие не видят никаких причин тратить старания на поисковые системы, считая, что это не повлияет на увеличение трафика. MSNbot не станет обходить сайт, если он (сайт) не представлен файлами robots.txt. Присутствие подобных файлов в базе данных увеличивает интерес поискового робота к сайту.

Несколько месяцев назад MSN получила много жалоб на то, что MSNbot игнорирует директории, прописанные в файлах robots.txt. Разработчики рассмотрели проблему и внесли некоторые изменения, позволяющие контролировать подобное поведение роботов.

Yahoo’s Inktomi Slurp

Yahoo легализовал использование поискового робота Inktomi, теперь известного как Slurp. Кажется, что Inktomi/Yahoo’s Slurp перерабатывает большой объем информации за пару дней, исчезает, возвращается, перерабатывает намного больше и вновь исчезает. Однако без файлов robots.txt его функционирование представляется более медленным, порой не эффективным, т.к. он не может проникнуть глубоко в структуру сайта.

Googlebot

На сайте Google представлены рекомендации и необходимые инструкции по правильному использованию подобных файлов. Поисковым оптимизаторам хорошо известно, что инструкции Google для web-мастеров — это больше, чем просто пошаговые рекомендации по оптимизации сайтов в поисковых системах. Так что, если файлы robots.txt упоминаются Google, значит, использовать их стоит. Без них Googlebot обходит сайты не достаточно эффективно.

IA_Archiver

Это робот поисковой системы Alexa. Охарактеризовать его можно как агрессивного «паука» с большим «аппетитом», вызываемым новой информацией, но, несмотря на это, очень любезным и обходительным. Он ограничивает свой обход до пары сотен страниц за один раз и функционирует достаточно медленно чтобы не перегружать сервер. Этот робот проводит свой обход в течение нескольких дней. Очередное появление робота ia_archiver можно определить, проанализировав статистику сайта. Он полностью выполняет команды и указания robots.txt-файлов.

Существует много пауков и роботов, демонстрирующих другое поведение во время обхода сайта. «Хорошие» будут следовать файлам robots.txt, «плохие» — нет. Далее будут рассмотрены некоторые способы, позволяющие избежать проблем с поисковыми роботами и использовать помощь файлов robots.txt.

Усовершенствованные команды и свойства файлов robots.txt

Основной набор команд, составляющих файлы robots.txt, представляют собой информацию двух видов: команды и характеристики. Следует помнить, что не все поисковые роботы понимают эти команды. Важно знать, какие именно не справляются с этим.

Приостановка индексирования

Некоторые роботы известны тем, что обходят веб-страницы с мгновенной скоростью, тем самым, становясь причиной того, что веб-серверы ограничивают доступ к ip-адресам сайтов другим роботам, активизируя специальное программное обеспечение. Когда робот начинает слишком быстро считывать информацию из базы данных, эта программа начинает блокировать работу поисковой системы.

Не обязательно наказывать всех поисковых роботов, используя эти программы, контролировать действия более послушных роботов можно с помощью команды приостановки индексирования: crawl delay.

Читать далее